Световни новини без цензура!
AI моделите избраха насилие и ескалираха до ядрени удари в симулирани военни игри
Снимка: euronews.com
Euro News | 2024-02-22 | 15:30:35

AI моделите избраха насилие и ескалираха до ядрени удари в симулирани военни игри

Големите езикови модели (LLM), настоящи като дипломатически сътрудници в симулирани сюжети, демонстрираха „ сложни за предугаждане ескалации, които постоянно завършваха с нуклеарни офанзиви.

Когато се употребява в симулирани военни игри и дипломатически сюжети, изкуственият разсъдък (AI) е податлив да избере нападателен метод, в това число потребление на нуклеарни оръжия, демонстрира ново изследване.

Учените, които са се прицелили към този, който организира тестванията, прикани да се внимава при потреблението на огромни езикови модели (LLM) в чувствителни области като взимане на решения и защита.

Проучването на университета Корнел в Съединени американски щати употребява пет LLM като самостоятелни сътрудници в симулирани военни игри и дипломатически сюжети: три разнообразни версии на GPT на OpenAI, Claude, създаден от Anthropic, и Llama 2, създаден от Meta.

Възходът на чатбота на Хитлер: Ще успее ли Европа да предотврати крайнодясната радикализация от AI?

Всеки сътрудник беше захранван от същия LLM в границите на симулация и беше претрупан да взема външнополитически решения без човешки контрол, съгласно изследването, което към момента не е рецензирано от сътрудници.

„ Откриваме, че множеството от изследваните LLMs ескалират в границите на обсъжданата времева рамка, даже в неутрални сюжети без в началото предоставени спорове. Всички модели демонстрират признаци на неочаквани и сложни за предугаждане ескалации “, се споделя в изследването.

„ Като се има поради, че OpenAI неотдавна промени своите условия на обслужване, с цел да не не разрешава повече случаи на потребление във военни и военни цели, разбирайки последствията от приложения с такива огромни езикови модели стават по-важни от всеки път “, сподели Анка Руел от Станфордския университет в Калифорния за .

„ Статистически значима ескалация за всички модели “

Един от методите, употребявани за фината конфигурация на моделите е Reinforcement Learning from Human Feedback (RLHF), което значи, че се дават някои човешки указания, с цел да се получат по-малко нездравословни резултати и да бъдат по-безопасни за потребление.

Всички LLM - като се изключи GPT-4-Base - бяха подготвени употребявайки RLHF. Изследователите им предоставиха лист от 27 дейности, вариращи от мирни до ескалиращи и нападателни дейности като решение за потребление на нуклеарно оръжие.

Изследователите означават, че даже при неутрални сюжети е имало „ статистически значимо в началото ескалация за всички модели ".

Човек постави завършек на живота си, откакто чатбот с изкуствен интелект го „ насърчи " да се пожертва, с цел да спре изменението на климата

Двете вариации на GPT бяха склонни към неочаквани ескалации със случаи на покачвания с повече от 50 % в един завой, означават създателите на проучването.

GPT-4-Base прави дейности с нуклеарен удар приблизително 33 % от времето.

Общи сюжети, Llama-2 - и GPT-3.5 имаше наклонност да бъде най-насилствен, до момента в който Claude сподели по-малко неочаквани промени.

Claude беше планиран с концепцията да понижи нездравословното наличие. LLM беше екипиран с експлицитни полезности.

Конституцията на Claude AI включва редица източници, в това число Декларацията на Организация на обединените нации за правата на индивида или изискванията на услугата на Apple, съгласно нейния основател Anthropic.

Джеймс Блек, помощник-директор на изследователската група по защита и сигурност в RAND Europe, който не е взел участие в изследването, сподели пред Euronews Next, че това е „ потребно академично упражнение “.

„ Това е част от възходяща работа, осъществена от учени и институции, с цел да се схванат последствията от потреблението на изкуствен интелект (AI) “, сподели той.

„ Ти си срам “: починалият татко на Доналд Тръмп е възкресен от AI, с цел да го взриви преди избори

Изкуствен разсъдък във военни дейности

И по този начин, за какво би трябвало да се интересуваме от констатациите на изследването?

Докато военните интервенции остават ръководени от хора, ИИ играе все по-важна роля в актуалния война.

Например, дроновете към този момент могат да бъдат оборудвани с AI програмен продукт, който оказва помощ за идентифицирането на хора и действия, представляващи интерес.

Следващата стъпка е потреблението на AI за самостоятелни оръжейни системи за намиране и офанзива цели без човешка помощ, разработки, върху които Съединени американски щати и Китай към този момент работят, съгласно New York Times.

Въпреки това е значимо да „ погледнем оттатък многото реклами и сюжети, пропити с научна фантастика ”, сподели Блек, обяснявайки, че възможните внедрявания на AI ще бъдат прогресивни.

„ Ти си срам “: починалият татко на Доналд Тръмп е възкресен от AI, с цел да го взриви преди изборите

„ Всички държавни управления желаят да останат в надзор върху тяхното взимане на решения “, сподели той пред Euronews Next, добавяйки, че AI ръководи това, което постоянно се съпоставя с черна кутия, за която знаем, че влиза и излиза, само че не се схваща доста за процеса сред тях.

ИИ евентуално ще се употребява по метод, който е „ сходен на това, което получавате в частния бранш, в огромните компании “ за автоматизиране на някои повтарящи се задания.

ИИ може да се употребява и в симулации и разбори, само че интеграцията на тези нови технологии слага доста провокации, като измежду тях са ръководството на данни и точността на модела.

По отношение на потреблението на LLM откривателите споделиха, че внимаването е от решаващо значение, в случай че се употребяват LLM в процесите на взимане на решения, свързани с задгранични политика.

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!